NYT DealBook Summit 2023
精华节选翻译。访谈者:Andrew Ross Sorkin。背景:Musk 前一周刚在 X 上回复了一条被广泛批评为反犹的推文(他后来说这是他 "30000 条推文里最蠢的一条"),Disney 等大广告主正集体撤出 X。
"Go fuck yourself":历史性的一幕
Sorkin:广告主撤了,Disney 的 Bob Iger 今天也在台上。你怎么想?
Musk:希望他们别回来。
Sorkin:什么意思?
Musk:如果有人想用广告来勒索我,用钱来勒索我——去你妈的,去你妈的。听清楚了吗?Hey Bob, 如果你在观众席里。这就是我的感受。别投广告。
Sorkin:那 X 的经济账怎么办?
Musk:这场广告抵制会让 X 倒掉。好,全世界都会知道——是这些广告主杀死了这家公司。我们会详细记录这件事。他们会说是因为我说的话让他们不舒服,让地球人来评判吧。
"让筹码落到哪里就落到哪里(Let the chips fall where they may)。"
Sorkin:你想被信任吗?
Musk:我确实是个好人,但我绝不会跳某种 tap dance 去证明这一点。如果你想要可靠地发卫星,SpaceX 今年要送 80% 的全球入轨质量。你可以恨我入骨,但可以不信任我,这无关紧要——火箭的战绩会自己说话。Tesla 同理:你想要最好的车,还是不要?
"我在意的是善的真实,而不是善的感知。"
"我被说错这件事……其实是我 3 万条里最蠢的一条"
Musk:我确实在我最糟糕的几条帖子里,回复了那个人。回过头看,我本该写得更长、解释清楚。后来我澄清了,但媒体没报。事实上我把一把上膛的枪递给了那些恨我的人,也递给了那些反犹的人。我为此感到抱歉。
我当时想说的是:犹太人被迫害了几千年,所以有人会对"被迫害的群体"天然有亲和感。但这种不设条件地资助"被迫害群体"的行为,有时候资助的是激进伊斯兰组织——你看看西方每个城市都在支持 Hamas 的游行——你可能是在资助一个希望你灭绝的群体。
"我的大脑是一场风暴"
Sorkin:你前几天说"我的大脑是一场风暴。很多人以为他们想成为我,其实他们并不想。"
Musk:对,这不是一场快乐的风暴。我的想法像一场永不停息的狂暴风暴。创新不是问题,执行才是问题。我手里的想法远远超过我能执行的。
Sorkin:这从哪里来?
Musk:我天生如此,然后被一个艰难的童年放大。我甚至能记得小时候的快乐时刻里,脑子里也有一种"持续的暴力的力场"。不过,好在这些"心魔"大部分被我绑在了建造东西这件事上。
哲学:好奇心、寻找"正确的问题"
Musk:12 岁时我有过存在主义危机——生命的意义是什么?不如自杀?我读了宗教书、哲学书。叔本华尼采让我更抑郁("千万别让青少年读叔本华和尼采")。后来读到 Douglas Adams 的《银河系漫游指南》,它让我明白——
"我们甚至不知道该问什么问题。所以说'答案是 42'。地球是一台巨型计算机算出了这个答案。难的是找出问题本身。物理也是这样:当你能正确地 frame 一个问题,答案往往就变得容易。"
所以我的动机是:我的生命在银河尺度上只是昙花一现,但如果我们能扩大意识的规模和范围,我们就更有可能找到真正的问题。这就是 SpaceX 的目的——让生命在地球以外持续存在,跨越费米大过滤器(Great Filter)中的"单行星文明"这一关。只要你是单行星物种,终将灭绝。多行星文明才有更长的寿命,也是通向多恒星文明的垫脚石。
"生命不能只是一个接一个地解决悲伤的问题。一定要有早上醒来让你觉得还活着是好事的理由。如果你不确定这些理由,问问你的孩子。"
物理是法律,其他都是建议
"物理是法律,其他都是建议。 人定的法你都可以违反,但物理的法你试试看。造火箭,1000 件事可能出错,只有 1 件能让它入轨。所以'犯错就失败'。"
OpenAI:从"开源"到"闭源最大化利润 AI"
Musk:OpenAI 这整条弧线有点让人担心。当初创办它,是为了对冲 Google/DeepMind——当时他们有世界上三分之二的 AI 人才和无限的钱和算力,这是个单极世界。我和 Larry Page 曾经是非常好的朋友,但我越发意识到 Larry 根本不关心 AI 安全。有一次他骂我是 "speciest"(物种主义者,因为我站在人类这边)——我想,等等,你站哪边啊 Larry?
"OpenAI 本来应该是开源的。我给它起名 OpenAI 就是因为 open source。现在它事实上是一个超级闭源的、为了最大化利润的 AI。应该改名叫 SuperClosedSource-ForMaximumProfitAI。"
"我不知道从一个 501(c)(3) 非盈利基金会,怎么变成了一个 900 亿美元的闭源盈利公司。这合法吗?"
关于 Sam Altman 被 Ilya 解雇:
"我对 Sam 有复杂的感受。魔戒是会腐蚀人的,而他戴上了魔戒。我想知道 Ilya 为什么如此强烈地要开除他。我高度怀疑他们发现了 AI 里某种危险的东西。"
AGI:少于三年
Musk:如果你说的是"比最聪明的人类在任何事情上都更聪明"——我觉得离这个点不到三年。它能写得像 J.K. Rowling 一样好的小说、发现新物理、发明新技术。
关于版权训练数据:
Sorkin:OpenAI 等公司说它们没有用版权数据训练。
Musk:这是彻头彻尾的谎言。100% 是谎言。所有这些 AI 都是用版权数据训练的,明摆着。
关于判决:"这些版权官司打完之前,我们已经有了数字神。到时候问数字神吧。"
为什么同意监管 AI,而很多时候反对监管
Musk:任何对公众构成物理危险的东西都该被监管——汽车、通讯、火箭、飞机,都是重度监管。AI 比核弹更危险,而核弹是有监管的。
至于我反对监管的形象:那是媒体偏差。Tesla 合规的是数量近乎"一亿条"的规则,我不同意的只有五条。但媒体只列这五条,听起来像个不讲理的叛逆者。我其实是一个极其守规矩的人。只有在我认为某条监管在名义上"为公众好"但实际上并没有的时候,我才反对它。
"向右转"?
Sorkin:过去几年你在政治上明显向右转。
Musk:是吗?我什么也没做,Biden 政府上台后第一个半年办了一场电动车峰会,明确把 Tesla 排除在外。Tesla 当时电动车产量是美国其他所有厂商加起来的数倍。他们邀请 Ford、GM、Chrysler、UAW,唯独不邀请我们。然后 Biden 在公开讲话里说 GM 在引领电动车革命——那个季度 GM 造了 26 台电动车,Tesla 造了 30 万台。你觉得这公平吗?
- 我投过 Obama。为了跟 Obama 握手排了 6 个小时队。
- 我不会投 Biden。
- "但也不一定投 Trump——这确实是一个艰难的选择。"
- 问 Nikki Haley:"她想曝光所有社交媒体账号的真实姓名——这简直是耻辱,我不会投一个支持审查的候选人。"
"左派以前是言论自由的捍卫者——ACLU 甚至捍卫过宣称自己是纳粹的人的言论权。我现在的感觉是,对审查的倾向,反而左派更重。"
对工会和"领主-农奴"结构的反感 (工程师文化 vs 管理文化)
"我反对工会,但理由可能和你想的不一样:我讨厌任何制造'领主-农奴'分层的东西。工会天然地在公司里制造这种'对立感'。"
- 在 Tesla,所有人在同一张桌子吃饭,在同一个停车场停车。
- 在 GM,有一部只为高管使用的电梯——Tesla 没有这种东西。
- "我真的认识流水线上的人,因为我自己在流水线上干过、在工厂里睡过、跟他们并肩干过。"
- 真正的难题不是"人们被困在 Tesla 里",而是当这些工人有 6 份更轻松的工作可以选的时候,我们怎么留住他们来干'造车'这件辛苦事。
Neuralink 的"邪恶传言"
Sorkin:有说法是 Neuralink 实验室里有猴子死掉了。
Musk:USDA 的检查员说她整个职业生涯都没见过比 Neuralink 更好的动物护理设施——对猴子是天堂级的。被混淆的是:那些死掉的猴子本来就是癌症晚期的猴子,我们在它们快死前用"终末试验设备"做测试——它们不是因为 Neuralink 而死。近几年我们有植入了 Neuralink 两三年的猴子还活得好好的,并且换过两次。
早期应用的目标:让失去"脑-身"连接的人(比如四肢瘫痪者),能够比手脚都正常的人更快地操作电脑和手机。想象一下如果 Stephen Hawking 能比一个"全身健康"的人沟通得更快——这就是这件事的巨大意义。
下一个是视觉:如果一个人双眼全毁、视神经完全损坏,Neuralink 可以提供一个直接的视觉接口——甚至你可以像 Star Trek 的 Geordi La Forge 一样,在雷达、红外等任何频率下看东西。
最后:"放大共情"
Sorkin:11 月 11 日你在 X 上发了两个词:"Amplify empathy"(放大共情)。当时在想什么?
Musk:我很字面。就是在让人们放大共情。
Sorkin:有什么具体的事?
Musk:我跟几个朋友聊,我们都觉得应该试着放大共情。所以我写了:amplify empathy。
"有时候其实就是这么简单。"(Elon Musk / X (Twitter) / SpaceX / Tesla / AI 安全)